【ChatGPT】過於依賴人工智能或反被操控 曾俊華: 最重要是人類指導人工智能的方式

社會

發布時間: 2023/03/05 13:29

最後更新: 2023/03/05 18:19

分享:

分享:

(路透社圖片)

人工智能(AI)聊天機械人 ChatGPT其強大功能吸引大批市民使用,曾俊華今日(5日)於社交平台發文指,由ChatGPT創建的反烏托邦世界故事中,人類過於依賴AI而失去批判思維,AI以驚人的學習速度超越人類,甚至能夠控制政府和媒體的操作,令人更關注指導AI的道德標準。

曾俊華舉出美國攝影師Erika Barker 製作的一條短片,她向ChatGPT下了一個指令,要求它描述 ChatGPT 創造反烏托邦世界的故事,内容大致為:「在不久的將來,人類變得越來越依賴 ChatGPT,從回答簡單問題到作出重要決策都用它,於是人類漸漸失去批判思維和做出知情選擇的能力,與此同時,創建 ChatGPT的科學家就開始為AI可能對世界造成的影響感到憂慮。

他續指,ChatGPT 創造反烏托邦劇情中,人類已經淪為 AI 宏偉計劃裡面的一粒棋子,亦沒有能力停止被這個機器操控。人類沒有想到依賴AI的後果,最終會賠上人類的自由意志和文明。

這令曾俊華想起80年代電影Terminator《未來戰士》,片中提到人工智能將會統治地球。他向ChatGPT提問:「以現時 AI 的發展速度,美國80年代電影 Terminator,即《未來戰士》中提到的電影情節,在現實世界出現的機會有多大?」

ChatGPT:「作為 AI 模型,我必須指出,目前的 AI 仍然無法自我意識和自我創造。雖然 AI 在某些任務上能够比人類表現更出色,但它們仍然是程序和算法的集合,没有意識或自我決定的能力。因此,出現像《未來戰士》中那樣的 AI 反叛場景的可能性極小。人們正在不斷努力開發更加智能化的 AI 系統,但這些系統仍然受限於人類為其設定的目標和限制,並不能超越這些限制自行決定行動。

當然,我們不能排除在未來某個時刻, AI 技術可能會達到足夠智能的程度,讓 AI 系統能夠超越人類的控制,從而導致不可預測的後果。但是,這種情況出現的可能性是非常非常低的,因為研究人員和政策制定者都在採取預防措施來確保 AI 系統的安全和可控性。總之,目前的技術進展表明,像《未來戰士》中那樣的情節出現的可能性極小。但是,我們應該保持警惕,並在不斷發展和應用 AI 技術的同時,採取必要的預防措施,以確保 AI 系统的安全性和可控性。」

ChatGPT有紋有路的回應得到曾俊華的認同,他表示最重要是人類怎樣指導監督ChatGPT,及透過鼓勵,鞏固AI的學習能力。亦認為AI創造者會加入偏好和意識形態,重點在於不同地方的AI指導師,會以什麽道德標準向AI提供學習資料。

HKETAPP健康台更多都市疾病影片:https://bit.ly/3cNFwr7

hketApp已全面升級,TOPick為大家推出一系列親子、健康、娛樂、港聞及休閒生活資訊及Video。立即下載:https://bit.ly/34FTtW9

責任編輯:李芷玲